摘要。本文提出了一条新的长尾(LT)认可的管道。我们利用长尾数据集本身来生成可以通过跨凝集(CE)进行优化的平衡代理,而不是重新降采样或重新采样。具体来说,仅在长尾数据集上训练的随机初始化扩散模型,用于与代表性不足的类合并新样本。然后,我们利用原始数据集中的信息信息来滤除有害的样品并保留有用的信息。我们的策略,l ongt ail识别(diffult)的差异模型代表了长尾识别中生成模型的开创性利用。diffult在CIFAR10-LT,CIFAR100-LT和Imagenet-LT上实现了最新的效果,超过了具有非平凡余量的最佳竞争对手。丰富的消融也使我们的管道也可以解释。整个生成管道都可以使用任何外部数据或预训练的模型权重,使其高度推广到现实世界的长尾设置。
主要关键词
![arxiv:2403.05170V1 [CS.CV] 2024年3月8日PDF文件第1页](/bimg/3/306fc016af7f727e92bd271769c7e9133ee305a8.webp)
![arxiv:2403.05170V1 [CS.CV] 2024年3月8日PDF文件第2页](/bimg/0/02af57a1924bf38d8cda620a5d53c26b374eb227.webp)
![arxiv:2403.05170V1 [CS.CV] 2024年3月8日PDF文件第3页](/bimg/e/efb7a7512bbc4404897df8a4ae8779c7fd9cffb6.webp)
![arxiv:2403.05170V1 [CS.CV] 2024年3月8日PDF文件第4页](/bimg/a/ad82d51f80a8d20c8a5aba31e59697e516a2657c.webp)
![arxiv:2403.05170V1 [CS.CV] 2024年3月8日PDF文件第5页](/bimg/f/ffa07e22d5dd55284e6154cd0d4bf3379cd409ef.webp)
